Cross Entropy
# Tag:
- Source/KU_ML
- Source/KU_DL
Cross Entropy
두 Probability distribution 사이의 차이(Distance)를 측정하는 함수.
: 는 실제분포, 는 예측 분포.
가 와 유사할 수록 Cross Entropy값은 작아지게 된다. 즉, 불확실성이 작아지게 된다. 계산과 미분의 편의를 위해 natural log를 사용한다.
이는 라는 믿음 하에 최적의 bit수를 할당한 것이다.
Kullback-Leiber(KL) divergence
relative entropy라고도 불린다.
:실제 분포 에 비해 얼마나 bit가 낭비 되는지를 의미한다. 혹은, 와 사이의 유사도가 얼마나 떨어지는지를 의미한다.
Jensen's inequality에 의해, 항상 그 값이 이상이게 된다. 이는, 와 사이의 유사성이 최대일때 이 됨을 의미한다.
는 확률분포이니, 다 더하면 이므로 최소한 0보다 크다.